jOas wEb Sci

Aller au contenu | Aller au menu | Aller à la recherche

Mot-clé - Assimilation de données

Fil des billets

jeudi, novembre 15 2007

Interpolation statistique - Best Linear Unbiased Estimation

Connaissant la matrice de covariance d'erreur d'analyse, il est possible d'essayer de minimiser son erreur scalaire (\[ \mathrm{Tr}(\mathbf{A}) \]). Il doit donc exister un gain optimal \[ \mathbf{K}^*\] qui peut être obtenu en étudiant la variation de l'erreur scalaire d'analyse sous une variation du gain. Comme la trace est une fonction scalaire continue et différentiable des coefficients de \[ \mathbf{K} \], il est possible d'exprimer sa dérivé \[ d_{\mathbf{K}} \] au premier ordre :

\[ d_{\mathbf{K}}\left(\mathrm{Tr}(\mathbf{A})\right) = \mathrm{Tr}\left( -\mathbf{H}\mathbf{B}\mathbf{L}^T - \mathbf{L}\mathbf{B}\mathbf{H}^T + \mathbf{R}\mathbf{K}^T + \mathbf{K}\mathbf{R} \right) \]

\[ d_{\mathbf{K}}\left(\mathrm{Tr}(\mathbf{A})\right) = \mathrm{Tr}\left( \mathbf{R}\mathbf{K}^T -\mathbf{H}\mathbf{B}\mathbf{L}^T \right) +\mathrm{Tr}\left( \mathbf{K}\mathbf{R} - \mathbf{L}\mathbf{B}\mathbf{H}^T \right) \]

(013)
\[ d_{\mathbf{K}}\left(\mathrm{Tr}(\mathbf{A})\right) = 2\mathrm{Tr}\left( \mathbf{K}\mathbf{R} -\mathbf{L}\mathbf{B}\mathbf{H}^T \right) \]

L'équation (013) est obtenue en utilisant des propriétés de l'algèbre linéaire telles que la trace est linéaire \[ \mathrm{Tr}(\mathbf{B}+\alpha\mathbf{R})=\mathrm{Tr}(\mathbf{B})+\alpha\mathrm{Tr}(\mathbf{R}) \]), la trace de la transposée égale la trace (\[ \mathrm{Tr}(\mathbf{B}^T)=\mathrm{Tr}(\mathbf{B}) \]) et les matrices symétriques sont égales à leurs transposées (\[ \mathbf{B}^T=\mathbf{B} \]).

Pour obtenir le gain optimal \[ \mathbf{K}^*\], il faut que \[ d_{\mathbf{K}}\left(\mathrm{Tr}(\mathbf{A})\right)=0\]. L'équation (013) donne alors le résultat suivant :

\[ \mathbf{K}^*\mathbf{R} -\mathbf{L}\mathbf{B}\mathbf{H}^T = 0\],

\[ \mathbf{K}^*\mathbf{R} -(\mathbf{I}-\mathbf{K}^*\mathbf{H})\mathbf{B}\mathbf{H}^T = 0\],

(014)
\[ \mathbf{K}^*(\mathbf{R}+\mathbf{H}\mathbf{B}\mathbf{H}^T) = \mathbf{B}\mathbf{H}^t\].

A l'optimalité, on a donc un gain égale

(015)
\[ \mathbf{K}^*=\mathbf{B}\mathbf{H}^T(\mathbf{R}+\mathbf{H}\mathbf{B}\mathbf{H}^T)^{-1}\].

Avec ce gain optimal, il est alors possible d'estimer \[\mathbf{x}^a\] et \[\mathbf{A}\]. C'est une estimation BLUE (Best Linear Unbiased Estimation) car elle est linéaire (Eq. (006)), sans biais (Eq. (008)) et optimale (Eq. (014)).

mercredi, novembre 14 2007

Interpolation statistique - Estimation non-optimisée

Définition du gain

Un ansatz pour le vecteur d'analyse \[ \mathbf{x}^a \] est de le décomposer de la manière suivante :

(006)
\[ \mathbf{x}^a = \mathbf{L}\mathbf{x}^b + \mathbf{K}\mathbf{y}^o \],

où \[\mathbf{L} \] est une matrice de dimension n x n et \[ \mathbf{K} \] une matrice de dimension n x p. L'état analysé est donc une combinaison linéaire des différentes informations disponibles.

Lire la suite...

mardi, novembre 13 2007

Interpolation statistique - Le problème de l'estimation

Le système étudié est décrit par \[ \mathbf{x}^t \]. La première estimation faite est \[ \mathbf{x}^b \] qui peut, par exemple, provenir d'une analyse antérieure. C'est la meilleure estimation du système en l'absence d'autres informations. Des observations \[ \mathbf{y}^o \] permettent d'obtenir des renseignements partiels au travers de l'opérateur d'observations non-linéaire \[ H \]. Dans la suite de ce chapitre, l'opérateur d'observations sera considéré linéaire et noté \[ \mathbf{H} \]. De plus, les erreurs d'ébauche \[ \epsilon^b \] et d'observation \[ \epsilon^o \] sont non-biaisées (ou débiaisées) et leurs statistiques sont connues.

L'objectif est alors, à l'aide des observations, d'améliorer l'estimation du système \[ \mathbf{x}^a \] vis-à-vis de la première estimation \[ \mathbf{x}^b \]. De plus, l'erreur sur l'état du système analysé \[ \epsilon^a \] est aussi recherchée.

Plusieurs possibilités existent pour obtenir l'analyse. Cependant, l'objectif est de réaliser une analyse aussi bonne qui possible (voire la meilleure). Il faut donc minimiser l'erreur commise a posteriori \[ \epsilon^a \], soit par exemple en minimisant \[ \mathrm{Tr}(\mathbf{A})\].

Interpolation statistique - Notations et hypothèses

Soit l'espace du modèle de dimensions n et l'espace des observations de dimensions p. En reprenant les définitions et notations précédentes :

Lire la suite...

Présentation du problème - Modélisation des erreurs

Pour prendre en compte les incertitudes dans l'ébauche, les observations et l'analyse, il faut faire des hypothèses sur la modélisation des erreurs entre ces vecteurs et leurs équivalents "vrais". L'utilisation des fonctions de densité de probabilité, nommées pdf, est une approche adaptée pour construire des modèles d'erreur. Les fonctions de densité de probabilité sont largement et rigoureusement décrites à travers des théories mathématiques. Une description simplifiée est donnée ci-dessous.

Lire la suite...

- page 5 de 6 -